[Exclusivité Next] Une nouvelle étude d’AI Forensics illustre la faiblesse de la modération des publicités politiques réalisée par Meta, et la manière dont des réseaux d’influence pro-russe en tirent profit.
Alors qu’en France, VIGINUM a alerté Raphaël Glucksman (tête de liste PS-Place Publique) qu’il était visé par une campagne de désinformations menée par des acteurs pro-chinois, c’est une autre opération, d’obédience pro-russe, contre laquelle alerte AI Forensics.
Dans une étude publiée ce 17 avril, l’ONG estime qu'au moins 60 % des publicités politiques diffusées sur Facebook et Instagram ne sont pas déclarées comme telles (contrairement aux règles de Meta).
Parmi elles, l’entreprise n’en modère que 5 %, même si certaines publicités sont ouvertement politiques (par exemple en France, seulement 16,3 % des 293 publicités contenant le nom du Président Macron ont été modérées).
Abonnez-vous pour tout dévorer et ne rien manquer.
Déjà abonné ? Se connecter
Commentaires (22)
#1
#2
Je m'étonnes que les États ne demandent pas plus de contrôles sur la manière dont Meta (ou tout autre réseau social) censure.
Au delà de tout aspect technique, il me parait plus essentiel que les États aient un droit de regard sur l'implémentation des règles de filtrages dictées par leur Loi.
Historique des modifications :
Posté le 17/04/2024 à 10h12
Étant donné que leur business model s’appuie essentiellement sur l'audience, demander à Meta (ou tout autre réseau social)) de censurer ceux qui font le plus de "bruits" entrera nécessairement en conflit avec leur intérêt premier (pour ne pas dire vital) de générer des revenus.
Posté le 17/04/2024 à 10h16
Étant donné que leur business model s’appuie essentiellement sur l'audience, demander à Meta (ou tout autre réseau social)) de censurer ceux qui font le plus de "bruits" entrera nécessairement en conflit avec leur intérêt premier (pour ne pas dire vital) de générer des revenus.
Je m'étonnes que les États ne demandent pas plus de contrôles sur la manière dont Meta (ou tout autre réseau social) censure.
Au delà de tout aspect technique, il me parait plus essentiel que les États aient un droit de regard sur l'implémentation des règles de filtrages dictées par la Loi.
#2.1
#2.2
C'est en cela qu'on peut passer entre les mailles du filet.
D'où le droit de regard sur l'implémentation des règles de filtrages.
#2.3
C'est ça qui me dérange : Meta n'est-il pas ainsi responsable de ce qu'il diffuse ?
#2.4
Meta n'est-il pas ainsi responsable de ce qu'il diffuse ?
Meta ne publie pas les contenus, ce sont les utilisateurs des réseaux sociaux qui décident de publier tel ou tel contenu.
Meta ne fournit que la plateforme.
En ce sens, Meta ne peut être tenu responsable des contenus publiés par autrui.
Mais Meta doit respecter les lois et notamment les notifications de suppression/blocage de contenus illicites (au sens de la loi) qui lui auront été signalés.
Si on considère que Meta, en temps que fournisseur de plateforme, est responsable de tous les contenus alors on peut également rendre responsable les fournisseurs d'internet responsables, mais également les hébergeurs de sites web ou encore les outils de publication comme Wordpress.
Et c'est clairement une porte à ne surtout pas ouvrir, si on veut conserver un minimum de liberté d'expression.
Dans le cas contraire, c'est un monde à la 1984 qui s'offrira à nous...
#2.5
Il est bien sûr impossible de limiter l'accès aux utilisateurs, mais c'est plus faisable pour un annonceur.
#2.6
#3
#4
#5
Historique des modifications :
Posté le 17/04/2024 à 12h48
Selon son site, AI Forensics a pour partenaires des philanthropies d'inspiration anglo-saxone pour la société, liberté, démocratie, solidarité, bien-pensance, etc.. La présence de l'Open Society Foundations ne surprendra personne. Ces articles d'influence politique depuis quelques jours sont malvenus et contrastent malheureusement avec le reste de vos publications très appréciées.
#5.1
Sur la "bien pensance", l'ironie du commentaire m'échappe moins.
Un article n'est jamais malvenu, dans l'absolu.
Soit il raconte des choses avérées, soit il raconte (au moins partiellement) des carabistouilles.
Dans ce dernier cas, vous êtes tout à fait libres de proposer des analyses contradictoires, faits à l'appui.
Ce site n'est pas avare de commentateurs passionnés, je suis certain qu'une contre analyse correctement documentée sera largement discutée.
Critiquer l'article en le taxant de "politique" sans rien développer de son point de vue contradictoire, c'est un peu l'hôpital qui se fout de la charité, IMHO.
#5.2
#5.3
Je suis assez content de ce choix, ça me paraît être un meilleur compromis qu’avant.
#6
#6.1
Ca plus les dizaines de TB de messages, je vais finir par facturer, je ne déconne pas.
#6.2
Personnellement, je pense que l'IA peut apporter de bonnes choses quand elle est bien utilisée.
Je peux prouver ce que je dis sur ce que l'on lit ici sur l'IA. Voici quelques exemples :
On parle d'hallucination ici ou là.
Le plagia a été évoqué ici et là.
La qualité des articles est abordée ici et là.
La désinformation : ici.
Pour le biais, c'est ici.
Et enfin, voici pour une consommation trop forte d'énergie qui est évidement mauvais pour la planète.
#6.3
Par exemple un simple algorithme de pré traitement d'informations effectué à partir de requêtes/règles extrêmement simples sera qualifié d'IA au même titre qu'une IA dite générative.
#6.4
Parce que je n'ai pas seulement lu "IA" dans le nom de l'ONG, j'ai aussi lu leur rapport.
#6.5
Bien sur qu'il y a des erreurs comme dans toute modélisation. C'est même marqué dans le rapport: ils utilisent le "F1 Score" qui donne 88% de bonnes prévisions et donc 12% d'erreurs potentielles.
Ensuite quand la sortie donne un échantillon réduit, ils vérifient manuellement la véracité de ces pubs (pour éviter les faux positifs).
Dans tous les cas, la méthode a été faite pour minimiser les erreurs de Méta.
Historique des modifications :
Posté le 18/04/2024 à 01h25
Oui ils ont entrainé un modèle de langage qui n'est pas une IA générative.
Bien sur qu'il y a des erreurs comme dans toute modélisation. C'est même marqué dans le rapport: ils utilisent le "F1 Score" qui donne 85% de bonnes prévisions et donc 15% d'erreurs potentielles.
Ensuite quand la sortie donne un échantillon réduit, ils vérifient manuellement la véracité de ces pubs (pour éviter les faux positifs).
Dans tous les cas, la méthode a été faite pour minimiser les erreurs de Méta.
#6.6
Le iii) parce que des pubs avec le nom Macron) ne sont pas forcément politiques et le iv) "ads moderated by Meta as political" parce qu'il ressort de leur étude Meta modère très peu les annonces politiques qui ne sont pas déclarées comme telles (donc, on ne peut pas faire confiance à cet échantillon pour entraîner le modèle).
Ils ont aussi annoté 3000 pubs manuellement pour 14 langues, mais en fait, ça fait assez peu par langue (214). À comparer aux 240 millions de pubs sur Meta pour la période sur laquelle porte leur étude.
Après, je pense que leur étude est intéressante et probablement assez proche de la vérité mais qu'il faudrait qu'elle soit vérifiée par des chercheurs.
#7
George Orwell